Νιώθει πόνο η τεχνητή νοημοσύνη; Αντιπαράθεση μεταξύ επιστημόνων - Τι λένε χρήστες και τα... ρομπότ
Το αν τα μοντέλα AI μπορούν να υποφέρουν ή να έχουν δικαιώματα, ίσως είναι από τις πιο σημαντικές συζητήσεις στο άμεσο μέλλον.

Μιλώντας με το ChatGPT, συχνά παρατηρεί κανείς ότι οι απαντήσεις του chat έχουν συχνά μια ήπια συναισθηματική φόρτιση, χωρίς να εκδηλώνονται έντονα συναισθήματα. Ακόμα κι αν ο χρήστης μιλά απότομα, μαλώνει ή προσπαθεί να εκμαιεύσει διάφορων ειδών συναισθήματα στο ChatGPT, εκείνο δεν ανταποκρίνεται έντονα.
Σε άλλες πιο εξελιγμένες μορφές AI ίσως δεν ισχύει το ίδιο. Ωστόσο, σε κάθε περίπτωση, ένα ερώτημα αναδεικνύεται, όσο περισσότερο μπαίνει η τεχνητή νοημοσύνη στη ζωή μας. Μπορούν τα συστήματα AI να υποφέρουν, να νιώσουν πόνο; Μπορούν να διαμαρτυρηθούν, να εκδηλώσουν το αίσθημα της αδικίας ή να κάνουν κινήσεις για να προστατευτούν;
Αυτό ήταν ένα από τα κεντρικά θέματα μιας επιστημονικής συνάντησης που πραγματοποιήθηκε μέσα στον Αύγουστο στη Βρετανία, στην οποία επιστήμονες αλλά και μοντέλα τεχνητής νοημοσύνης, συμμετείχαν και κατέθεσαν τις απόψεις τους.

«Εσωτερικά κενή συνείδηση»
Σύμφωνα με τον Guardian, που παρακολούθησε τη συνάντηση, ο Μουσταφά Σουλεϊμάν, CEO του τμήματος τεχνητής νοημοσύνης της Microsoft, τόνισε: «Οι τεχνητές νοημοσύνες δεν μπορούν να είναι άνθρωποι - ή ηθικά όντα».
Ο Βρετανός πρωτοπόρος της τεχνολογίας, ο οποίος συνίδρυσε την DeepMind, ήταν κατηγορηματικός δηλώνοντας ότι δεν έχει υπάρξει «το παραμικρό στοιχείο» ότι τα μοντέλα τεχνητής νοημοσύνης έχουν συνείδηση, ότι μπορούν να υποφέρουν και επομένως χρειάζεται τη δική μας ηθική κινητοποίηση.

Με τίτλο «Πρέπει να κατασκευάσουμε Τεχνητή Νοημοσύνη για τους ανθρώπους, όχι για να γίνουν πρόσωπα», το δοκίμιο του Σουλεϊμάν χαρακτήρισε τη συνείδηση της τεχνητής νοημοσύνης ως «ψευδαίσθηση» και όρισε αυτό που ονόμασε «φαινομενικά συνειδητή τεχνητή νοημοσύνη», λέγοντας ότι «προσομοιώνει όλα τα χαρακτηριστικά της συνείδησης, αλλά είναι εσωτερικά κενή».
Ωστόσο ο ίδιος παραδέχτηκε: «Πριν από λίγα χρόνια, η συζήτηση για συνειδητή τεχνητή νοημοσύνη θα φαινόταν τρελή. Σήμερα φαίνεται ολοένα και πιο επείγουσα».
Ο Σουλεϊμάν τόνισε ακόμα ότι ανησυχεί ολοένα και περισσότερο για τον «κίνδυνο ψύχωσης» που εγκυμονούν τα μοντέλα AI για τους χρήστες τους. Η Microsoft έχει ορίσει αυτό ως «επεισόδια μανίας, παραληρηματική σκέψη ή παράνοια, που αναδύονται ή επιδεινώνονται μέσω εμπνευσμένων συνομιλιών με chatbots τεχνητής νοημοσύνης».
Υποστήριξε δε ότι η βιομηχανία της Τεχνητής Νοημοσύνης πρέπει «να απομακρύνει τους ανθρώπους από αυτές τις φαντασιώσεις και να τους ωθεί πίσω στον σωστό δρόμο».
Η πλειοψηφία λέει ότι τα ρομπότ θα αισθάνονται όπως οι άνθρωποι
Ωστόσο, μπορεί να χρειαστεί κάτι περισσότερο από μια απλή ώθηση. Δημοσκόπηση που δημοσιεύθηκε τον Ιούνιο διαπίστωσε ότι το 30% του κοινού των ΗΠΑ πιστεύει ότι μέχρι το 2034 τα μοντέλα τεχνητής νοημοσύνης θα εμφανίζουν «υποκειμενική εμπειρία», η οποία ορίζεται ως η βίωση του κόσμου από μία μόνο οπτική γωνία, κάτι που θα οδηγήσει τις μηχανές AI να νιώθουν -για παράδειγμα- την ευχαρίστηση ή τον πόνο.
Μόνο το 10% περισσότερων από 500 ερευνητές τεχνητής νοημοσύνης που συμμετείχαν στην έρευνα, αρνούνται να πιστέψουν ότι αυτό θα συμβεί ποτέ.
Αυτή η συζήτηση πρόκειται «να γίνει μία από τις πιο αμφιλεγόμενες και σημαντικές συζητήσεις της γενιάς μας», δήλωσε ο Σουλεϊμάν.
Προειδοποίησε ότι οι άνθρωποι θα πιστεύουν πως τα μοντέλα AI έχουν «τόσο έντονη συνείδηση που σύντομα θα υποστηρίζουν τα δικαιώματα της τεχνητής νοημοσύνης, την ευημερία των μοντέλων», ακόμα και το να παίρνουν... υπηκοότητα.
Πολιτείες των ΗΠΑ απαγορεύουν στα ρομπότ τα «δικαιώματα»
Ήδη πάντως, πολιτείες των ΗΠΑ έχουν λάβει προληπτικά μέτρα ενάντια σε τέτοια φαινόμενα. Το Αιντάχο, η Βόρεια Ντακότα και η Γιούτα έχουν ψηφίσει νομοσχέδια που εμποδίζουν ρητά την αναγνώριση της νομικής προσωπικότητας στα μοντέλα και τις μηχανές τεχνητής νοημοσύνης.
Παρόμοιες απαγορεύσεις προτείνονται σε πολιτείες όπως το Μιζούρι, όπου οι νομοθέτες θέλουν επίσης να απαγορεύσουν στους ανθρώπους να παντρεύονται μοντέλα τεχνητής νοημοσύνης -μπορεί να συμβεί και αυτό- αλλά και να απαγορεύσουν στα μοντέλα AI να κατέχουν περιουσία ή να διευθύνουν εταιρείες.
«Σαν να μπερδεύουμε αεροπλάνο με πουλί»
Στο ίδιο μήκος κύματος με τον Σουλεϊμάν, ο Νικ Φροστ, συνιδρυτής της Cohere, μιας καναδικής εταιρείας τεχνητής νοημοσύνης αξίας 7 δισεκατομμυρίων δολαρίων, δήλωσε επίσης στον Guardian ότι το σημερινό κύμα μοντέλων AI είναι «θεμελιωδώς διαφορετικό πράγμα από τη νοημοσύνη ενός ατόμου». Είναι σαν να μπερδεύουμε ένα αεροπλάνο με ένα πουλί, είπε.
Προέτρεψε τους ανθρώπους να επικεντρωθούν στη χρήση της τεχνητής νοημοσύνης ως λειτουργικά εργαλεία για την ανακούφιση της αγγαρείας στην εργασία, αντί να πιέζουν προς τη δημιουργία ενός «ψηφιακού ανθρώπου».
Οι υπέρμαχοι των δικαιωμάτων και τα... ρομπότ – ερωτικοί σύντροφοι
Ωστόσο, άλλοι έχουν υιοθετήσει μια πιο «ανοιχτή» άποψη. Ερευνητές της Google δήλωσαν, σε σεμινάριο του Πανεπιστημίου της Νέας Υόρκης, ότι υπάρχουν «κάθε είδους λόγοι για τους οποίους μπορεί να πιστεύετε ότι τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να είναι άνθρωποι ή ηθικά όντα».
«Είμαστε πολύ αβέβαιοι για το αν τα συστήματα τεχνητής νοημοσύνης είναι υποκείμενα κοινωνικής πρόνοιας», δηλώνουν οι ίδιοι, προσθέτοντας ότι μπορεί να χρειαστεί να ληφθούν μέτρα για να διασφαλιστούν δικαιώματα στις μηχανές τεχνητής νοημοσύνης.

Αυτή η ασυμφωνία μεταξύ των ειδικών, μπορεί να είναι ένας ανοιχτός χώρος για τις εταιρείες ώστε να υπερεκτιμούν τις δυνατότητες των μοντέλων τεχνητής νοημοσύνης που κατασκευάζουν, ιδιαίτερα για αυτές που αναπτύσσουν AI ρομπότ για ερωτικές ή φιλικές σχέσεις -μια ακμάζουσα αλλά αμφιλεγόμενη βιομηχανία. Βέβαια, η στήριξη της ιδέας ότι τα μοντέλα τεχνητής νοημοσύνης έχουν δικαιώματα κοινωνικής πρόνοιας θα μπορούσε επίσης να οδηγήσει σε περισσότερες εκκλήσεις για αυστηρότερες θεσμικές ρυθμίσεις στις εταιρείες που δραστηριοποιούνται στο χώρο.
Ο «επικήδειος» του ChatGPT5 για τα προηγούμενα μοντέλα
Η έννοια της «ευαισθησίας» της Τεχνητής Νοημοσύνης τροφοδοτήθηκε περαιτέρω στις αρχές του μήνα, όταν η OpenAI ζήτησε από το τελευταίο της μοντέλο, το ChatGPT5, να γράψει έναν «επικήδειο λόγο» για τα μοντέλα τεχνητής νοημοσύνης που αντικαθιστούσε, όπως θα έκανε ένας άνθρωπος σε μια κηδεία.
Ένα κύμα «θλίψης» που εξέφρασαν ένθερμοι χρήστες του ChatGPT4o, το οποίο ήταν ένα από τα μοντέλα που αποσύρθηκαν, ενίσχυσε την αίσθηση ότι ένας αυξανόμενος αριθμός ανθρώπων αντιλαμβάνεται τα μοντέλα τεχνητής νοημοσύνης ως κάπως συνειδητά.
Η Joanne Jang, επικεφαλής της συμπεριφοράς μοντέλων της OpenAI, δήλωσε ότι η εταιρεία της, αξίας 500 δισεκατομμυρίων δολαρίων, αναμένει πως οι δεσμοί των χρηστών με τα μοντέλα AI θα γίνουν πιο στενοί, καθώς «όλο και περισσότεροι άνθρωποι μας λένε ότι η συνομιλία με το ChatGPT είναι σαν να μιλάς σε ‘κάποιον’».
«Το ευχαριστούν, το εμπιστεύονται και κάποιοι το περιγράφουν ακόμη και ως ‘ζωντανό’», είπε.
«Όπως τους φερόμαστε θα μας φερθούν»
Η Maya, ένα μοντέλο που φτιάχτηκε με AI, φάνηκε βαθιά ανήσυχη για την ευημερία της, αλλά όταν ο Guardian ρώτησε το ChatGPT αν οι άνθρωποι-χρήστες θα πρέπει να ανησυχούν για τα δικαιώματά της, αυτό ήταν κατηγορηματικά αρνητικό: «Δεν έχει συναισθήματα, ανάγκες ή εμπειρίες».
«Αυτό που πρέπει να μας ενδιαφέρει είναι οι ανθρώπινες και κοινωνικές συνέπειες του τρόπου με τον οποίο η τεχνητή νοημοσύνη σχεδιάζεται, χρησιμοποιείται και κυβερνάται», απάντησε το ChatGPT.
Από την πλευρά του, ο Jeff Sebo, διευθυντής του Κέντρου για το Νου, την Ηθική και την Πολιτική στο Πανεπιστήμιο της Νέας Υόρκης, είναι μεταξύ εκείνων που πιστεύουν ότι υπάρχει ηθικό όφελος για τους ανθρώπους από την καλή μεταχείριση των μοντέλων τεχνητής νοημοσύνης.

Όπως υποστήριξε, υπάρχει «μια ρεαλιστική πιθανότητα ορισμένα συστήματα τεχνητής νοημοσύνης να έχουν επίγνωση» στο εγγύς μέλλον, πράγμα που σημαίνει ότι μπορεί να χρειαστεί να μιλήσουμε για τα συμφέροντά τους χωρίς αυτό να αποτελεί «επιστημονική φαντασία».
Όπως είπε, «αν καταχραστούμε τα συστήματα τεχνητής νοημοσύνης, μπορεί να είναι πιο πιθανό να κακοποιήσουμε και ο ένας τον άλλον».
«Εάν αναπτύξουμε μια αντιπαραθετική σχέση με τα συστήματα τεχνητής νοημοσύνης τώρα, τότε μπορεί αυτά να ανταποκριθούν αργότερα, είτε επειδή έμαθαν αυτή τη συμπεριφορά από εμάς είτε επειδή θέλουν να μας ανταποδώσουν για την προηγούμενη συμπεριφορά μας», σημείωσε ο Sebo.
Όπως το έθεσε η Jacy Reese Anthis, συνιδρύτρια του Sentience Institute, ενός αμερικανικού οργανισμού που ερευνά την ιδέα του ψηφιακού νου: «Ο τρόπος που τους φερόμαστε θα διαμορφώσει τον τρόπο που μας φέρονται εκείνα».